년 11월 AI 및 로봇 연구

년 11월 AI 및 로봇 연구

1. 2020년 11월 AI 및 로봇공학 연구 동향 개관

2020년 후반의 연구 지형은 몇 가지 지배적인 패러다임에 의해 특징지어졌다. 모델의 규모를 키우는 것이 질적으로 새로운 능력을 창출한다는 ’스케일링 가설(scaling hypothesis)’이 힘을 얻고 있었고, 트랜스포머 아키텍처는 자연어 처리(NLP)를 넘어 그 영향력을 확장하고 있었다. 강화학습 분야에서는 오프라인의 비정형 데이터로부터 학습하는 방법에 대한 관심이 증대되고 있었다. 또한, 전 세계적인 팬데믹 상황으로 인해 대부분의 학술대회가 가상(virtual)으로 전환되면서 1, 연구 접근성은 민주화되었으나 과학적 담론의 형태는 재편되었다. 이러한 배경 속에서 2020년 11월의 연구 결과물들은 이론적인 스케일링 법칙이 실질적이고 때로는 놀라운 경험적 결과로 이어지기 시작한 중요한 분기점을 반영하며, 이후 몇 년간 이어질 생성형 AI 붐의 서막을 열었다.

이 시기의 연구들은 몇 가지 핵심 주제를 중심으로 수렴되었다. 첫째, 거대 언어 모델에서 소수의 예시만으로 새로운 작업을 수행하는 ‘퓨샷(few-shot)’ 능력의 발현이 입증되었다. 둘째, 로봇공학 분야에서는 다중 에이전트 학습 및 상호작용을 위한 정교한 프레임워크가 개발되었다. 셋째, 딥러닝 기술이 새로운 인간-컴퓨터 인터페이스 문제에 적용되기 시작했다. 마지막으로, 컴퓨터 비전의 핵심 과제인 객체 탐지를 위한 효율적이고 확장 가능한 아키텍처가 지속적으로 개선되었다. 본 보고서는 이러한 각 영역의 대표적인 논문들을 심층 분석하여 해당 월의 과학적 성과에 대한 종합적인 시각을 구축하고자 한다.

특히 2020년 11월은 AI 연구 철학의 중요한 분기점으로 기록될 만하다. ’스케일링’이라는 추상적 개념이 보다 일반화된 지능으로 나아가는 유효한 경로임이 구체적으로 입증되는 동시에, 특정 작업에 대한 원칙적이고 효율적인 스케일링에 초점을 맞춘 연구 흐름이 병존했다. OpenAI의 GPT-3 논문 “Language Models are Few-Shot Learners“는 1750억 개라는 전례 없는 파라미터 스케일링을 통해, 별도의 미세조정(fine-tuning) 없이도 문맥 내에서 새로운 작업을 학습하는 ‘인컨텍스트 학습(in-context learning)’ 능력이 발현됨을 보였다.9 이는 ’더 큰 것이 더 좋다’는 가설을 극적으로 증명한 사례였다. 반면, 거의 동시에 발표된 “Scaled-YOLOv4” 논문은 근본적으로 다른 접근법을 취했다.13 이 연구는 단순히 모델을 키우는 대신, 객체 탐지라는 특정 작업에 대해 속도와 정확성의 최적 균형점을 찾기 위해 네트워크의 깊이, 너비, 해상도뿐만 아니라 구조까지 체계적으로 확장하는 방법론을 제시했다.13 이 두 연구의 비교는 당시 연구계에 존재했던 긴장감을 명확히 보여준다. GPT-3가 규모의 힘으로 새로운 능력이 ’창발’하는 범용 모델(generalist model)을 지향했다면, Scaled-YOLOv4는 효율성을 위해 성능을 세심하게 공학적으로 설계하는 특화 모델(specialist model)의 정점을 추구했다. 따라서 2020년 11월은 단순한 스케일링의 시대가 아니라, 서로 다른 스케일링 철학—하나는 범용 인공지능(AGI)과 같은 일반화를, 다른 하나는 고성능의 실용적 배포를 목표로 하는—이 부상하며 공존하기 시작한 시기로 이해해야 한다.

2. 주요 학술대회 및 발표 동향

2020년 11월의 학술 활동은 전 세계적인 상황으로 인해 가상 공간에서 이루어졌다. 학회들은 Zoom, Discord와 같은 플랫폼을 활용하여 온라인으로 진행되었으며, 이는 폭넓은 국제적 참여를 가능하게 했다.2 이 섹션에서는 해당 월에 개최된 주요 학술대회의 초점과 동향을 공식 발표 자료를 바탕으로 정리한다.

  • 제2차 로봇공학 및 자동화 세계 총회 (Robotics 2020): 11월 9-10일 (네덜란드 암스테르담 기준) 가상으로 개최된 이 총회는 기계 학습, 빅데이터 분석, 지능형 자동화, 로봇 구성 요소 등 광범위한 주제를 다루었으며, 학계 연구자와 산업 전문가 모두를 대상으로 했다.14

  • 병원 및 헬스케어 AI·로봇공학 컨퍼런스: 11월 10-11일 가상으로 개최되었으며, 싱가포르 헬스케어 산업 내 AI 및 로봇공학의 특정 응용 사례에 초점을 맞추고 주요 병원들의 사례 연구를 발표했다.3

  • 제12회 국제 소셜 로봇공학 컨퍼런스 (ICSR 2020): 11월 중 가상으로 개최되어 인간-로봇 상호작용 분야의 지속적인 연구 동향을 보여주었다.2

  • 로봇 학습 컨퍼런스 (CoRL 2020): 11월 16-18일 가상으로 개최된 CoRL은 로봇공학과 기계 학습의 교차점에 있는 최고 수준의 연례 학회다. 논문집은 PMLR(Proceedings of Machine Learning Research)을 통해 출판되었다.6

  • 자연어 처리 경험적 방법 컨퍼런스 (EMNLP 2020): 11월 16-20일 가상으로 개최된 EMNLP는 NLP 분야의 최상위 학회 중 하나로, 논문집은 ACL(Association for Computational Linguistics)에서 출판했다.4

  • 신경정보처리시스템학회 (NeurIPS 2020): 본 학회는 12월에 개최되었지만, 기념비적인 GPT-3 논문을 포함한 다수의 채택 논문들이 11월에 이미 공개되어 학계의 논의를 주도하고 있었으므로, 이달의 연구 지형에서 중요한 부분을 차지했다.8

아래 표는 2020년 11월에 개최된 주요 AI 및 로봇공학 관련 학술대회를 요약한 것이다.

학회명날짜형식주요 연구 분야
제2차 로봇공학 및 자동화 세계 총회11월 9-10일가상 (암스테르담)일반 로봇공학, 자동화, 기계 학습, 빅데이터 14
병원 및 헬스케어 AI·로봇공학 컨퍼런스11월 10-11일가상 (싱가포르)헬스케어 AI, 의료 로봇, 보건 IT 3
제12회 국제 소셜 로봇공학 컨퍼런스 (ICSR)11월 중가상소셜 로봇, 인간-로봇 상호작용 2
로봇 학습 컨퍼런스 (CoRL)11월 16-18일가상로봇 학습, 로봇을 위한 기계 학습, 강화 학습 6
자연어 처리 경험적 방법 컨퍼런스 (EMNLP)11월 16-20일가상자연어 처리, 기계 번역, 텍스트 생성 4
제6회 로봇공학 및 AI 국제 컨퍼런스 (ICRAI)11월 20-22일가상일반 로봇공학, 인공지능 1

3. 자연어 처리 분야의 혁신: 거대 언어 모델과 새로운 응용

3.1 NeurIPS 2020 하이라이트: “Language Models are Few-Shot Learners” (GPT-3) 심층 분석

OpenAI의 Tom B. Brown 연구팀이 발표한 이 논문은 특정 작업에 대한 미세조정(fine-tuning) 패러다임에 도전하며, 언어 모델의 규모를 극적으로 확장하는 것만으로도 작업에 구애받지 않는 퓨샷(few-shot) 성능이 크게 향상됨을 보이는 것을 핵심 목표로 삼았다.9

이 연구는 ’인컨텍스트 학습(in-context learning)’이라는 새로운 모델 활용 패러다임을 제시했다. 기존의 미세조정 방식이 새로운 작업마다 모델의 가중치를 업데이트했던 것과 달리, GPT-3는 자연어 프롬프트(prompt)를 통해 작업을 명시한다. 이 프롬프트에는 작업에 대한 설명만 포함되거나(zero-shot), 하나의 예시(one-shot), 또는 몇 개의 예시(few-shot)가 포함될 수 있으며, 모델은 어떠한 경사 하강법 기반의 가중치 업데이트 없이 프롬프트를 완성하는 방식으로 과제를 수행한다.9 이는 모델이 추론 시점에 주어진 문맥으로부터 학습하는 방법을 배우는 일종의 메타 학습(meta-learning)으로 해석될 수 있다.9 이 연구의 핵심은 모델의 규모에 있다. GPT-3는 이전의 어떤 밀집 언어 모델(dense language model)보다 10배 이상 큰 1750억 개의 파라미터를 가진 자기회귀(autoregressive) 언어 모델이다.9 아키텍처 자체는 표준적인 트랜스포머를 따르지만, 그 거대한 규모가 실험의 핵심 변수였다. 모델은 CommonCrawl과 같은 대규모 웹 데이터와 고품질의 참조 코퍼스를 혼합한 방대한 말뭉치로 학습되었다.9

결과적으로 GPT-3는 별도의 미세조정 없이도 번역, 질의응답 등 다양한 NLP 과제에서 강력한 성능을 보였으며, TriviaQA 데이터셋에서는 퓨샷 설정으로 71.2%의 정확도를 달성하여 당시의 SOTA(state-of-the-art) 모델들과 경쟁하는 수준에 도달했다.9 또한 세 자릿수 산술 연산과 같은 추론 능력을 요구하는 작업에서도 유의미한 성능을 보였다. 특히 모델의 용량이 커질수록 zero-shot, one-shot, few-shot 설정 간의 성능 격차가 벌어지는 경향이 관찰되었는데, 이는 대규모 모델이 더 뛰어난 ’메타 학습자’임을 시사한다.9 인간 평가자가 실제 기자가 작성한 기사와 구분하기 어려운 수준의 뉴스 기사를 생성하는 능력은 이 모델의 뛰어난 생성 능력을 입증하는 중요한 발견이었다.12

이 논문은 딥러닝에서의 스케일링 법칙에 대한 강력한 증거를 제시하며 현대 거대 언어 모델(LLM) 시대를 본격적으로 열었다는 점에서 기념비적이다. 연구의 초점을 아키텍처 혁신에서 스케일링의 동역학과 창발적 능력(emergent abilities)으로 이동시켰다. 산업계에는 단일 거대 기반 모델(foundation model)을 통해 수많은 작업을 즉석에서 처리할 수 있는 미래를 제시했으며, 이는 작업별 데이터 수집 및 학습 파이프라인의 필요성을 크게 줄일 수 있음을 의미했다.12 동시에 모델의 오용 가능성, 편향, 그리고 막대한 연산 비용과 같은 사회적, 윤리적 문제들을 수면 위로 끌어올렸다.22

3.2 EMNLP 2020 최우수 논문: “Digital Voicing of Silent Speech“의 기술적 성과

캘리포니아 대학교 버클리의 David Gaddy와 Dan Klein이 발표한 이 논문은 얼굴 근육의 전기 신호를 포착하는 비침습적 근전도(EMG) 센서를 사용하여, 소리 내지 않고 입 모양으로만 말하는 ’무성 발화(silent speech)’를 음성으로 변환하는 것을 목표로 했다.23

이 연구의 핵심적인 기술적 성과는 음성 합성 모델을 무성 발화 중에 수집된 EMG 데이터로 직접 학습시켰다는 점에 있다. 이전 연구들은 소리를 내며 말할 때(vocalized speech) 수집된 EMG 데이터에 의존했다. 저자들은 유성 발화 데이터에서 얻은 오디오 목표 신호(audio target)를 무성 발화 EMG 데이터로 전이(transfer)하는 새로운 기법을 도입하여, 소리 없는 근육 움직임과 실제 음성 간의 매핑을 모델이 학습할 수 있도록 했다.23 또한, 후속 연구를 촉진하기 위해 유성 및 무성 안면 EMG 측정값으로 구성된 새로운 데이터셋을 공개했다.23

제안된 방법론은 생성된 오디오의 명료도를 극적으로 향상시켰다. 한 실험 조건에서는 생성된 음성의 단어 오류율(Word Error Rate, WER)을 기존 방법의 64%에서 4%로 대폭 감소시켰으며, 다른 조건에서는 88%에서 68%로 줄여 성능의 비약적인 발전을 입증했다.23

이 연구는 뇌-컴퓨터 인터페이스(BCI) 및 보조 기술 분야에서 중요한 진전을 의미한다. 무성 발화를 음성으로 변환하는 실용적인 방법을 제시함으로써, 후두 절제나 마비 등으로 인해 발화에 어려움을 겪는 사람들을 위한 새로운 의사소통 보조 장치의 가능성을 열었다. 이는 AI의 응용 범위를 기존에 생성된 인간의 언어를 처리하는 것을 넘어, 생체 신호로부터 직접 언어를 합성하는 영역으로 확장시킨 중요한 사례다.

4. 로봇 학습 및 다중 에이전트 시스템의 진보

4.1 CoRL 2020 최우수 논문: “Learning Latent Representations to Influence Multi-Agent Interaction” 분석

스탠퍼드 대학교의 Annie Xie 연구팀이 발표한 이 논문은 인간이나 다른 적응형 로봇과 같이 자신의 행동에 반응하여 정책을 바꾸는 비정상(non-stationary) 에이전트와의 상호작용 문제를 다룬다.7 핵심 목표는 상대방의 변화를 예측하는 것을 넘어, 더 나은 장기적 결과를 위해 상대방의 전략에 능동적으로 영향을 미치는 에이전트를 만드는 것이었다.24

이 프레임워크는 상대방의 저수준 행동을 직접 모델링하는 대신, 강화학습 기반 접근법을 사용하여 상대방 정책의 고수준, 저차원 잠재 표현(latent representation, z), 즉 ’전략’을 학습한다. 여기서 핵심은 에이전트 자신의 행동에 따라 상대방의 전략 z가 다음 상호작용에서 어떻게 변하는지를 모델링하는 **잠재 동역학(latent dynamics)**을 학습하는 것이다. 에이전트의 정책은 협력에 유리한 잠재 전략으로 상대방을 유도하는 행동을 선택함으로써 장기적 보상을 극대화하도록 학습된다.25 이러한 상호작용은 잠재 파라미터 MDP(Hidden Parameter MDP, HiP-MDP)로 공식화되며, 학습 과정은 인코더-디코더 구조와 모델-프리 강화학습 알고리즘을 포함한다.29

자율주행, 표적 추적과 같은 시뮬레이션 환경과 실제 에어 하키 게임에서 제안된 접근법(LILI)은 기존의 방법들보다 뛰어난 성능을 보였다. 예를 들어, 게임 환경에서 에이전트는 상대방이 자신이 가장 효과적으로 방어할 수 있는 곳으로 공격하도록 유도하는 법을 학습했다.25

이 논문은 전략적 다중 에이전트 상호작용을 위한 정교하고 데이터 기반의 프레임워크를 제공한다. 이는 단순히 반응적이거나 예측적인 모델을 넘어, 능동적이고 영향력 있는 에이전트로 나아가는 길을 제시한다. 이는 인간-로봇 협업, 자율주행 차량 간의 협상 등 장기적이고 반복적인 상호작용이 중요한 모든 영역에 깊은 함의를 가진다. 자신의 행동을 통해 타인의 행동을 ’형성’하는 인간의 직관적인 능력을 공식화한 연구라 할 수 있다.

4.2 CoRL 2020 최우수 시스템 논문: 자율주행 시뮬레이션 플랫폼 “SMARTS”

상하이 교통대학의 Ming Zhou, 화웨이의 Jun Luo를 비롯한 화웨이 노아의 방주 연구소 소속의 대규모 연구팀이 발표한 이 논문은 자율주행 연구의 핵심적인 병목 현상을 해결하고자 했다. 즉, 다양하고 유능한 주행 상호작용을 생성하는 현실적이고 확장 가능한 다중 에이전트 시뮬레이터의 부재를 해결하는 것이 목표였다.30 SMARTS(Scalable Multi-Agent RL Training School) 플랫폼은 이러한 필요를 충족시키기 위해 설계되었다.30

SMARTS는 다양한 도로 사용자 행동 모델의 학습, 축적, 활용을 지원하도록 설계된 오픈소스 플랫폼이다. 이는 더 나은 모델이 더 현실적인 상호작용 시나리오를 가능하게 하고, 이는 다시 훨씬 더 나은 모델의 학습으로 이어지는 선순환 구조를 만든다. 이 플랫폼은 다중 에이전트 강화학습을 위해 구축되었으며, 고충실도 상호작용, 사용자 친화적인 렌더링, 분산 컴퓨팅을 강조한다.30

SMARTS는 연구 커뮤니티에 필수적인 기반 시설을 제공한다. 현실적인 시뮬레이션은 자율주행 정책을 안전하고 저렴하게 훈련하고 검증하는 데 필수적이다. 특히 다중 에이전트 상호작용에 초점을 맞춤으로써, SMARTS는 공격적인 인간 운전자와의 협상이나 다른 자율주행차와의 협응과 같이 자율주행에서 가장 어려운 미해결 문제에 대한 연구를 직접적으로 가능하게 한다. 오픈소스라는 특성은 학계와 산업계 연구자들이 새로운 다중 에이전트 학습 알고리즘을 개발하고 벤치마킹할 수 있도록 힘을 실어준다.30

4.3 CoRL 2020 최우수 발표상: “Accelerating Reinforcement Learning with Learned Skill Priors”

서던캘리포니아 대학교(USC)의 Karl Pertsch 연구팀이 발표한 이 논문은 강화학습의 전이 학습(transfer learning)에서 발생하는 핵심적인 문제를 해결하고자 했다. 에이전트가 더 많은 사전 경험과 기술(skill)을 축적할수록, 새로운 과제에서 이 모든 기술을 탐색하는 것은 계산적으로 비효율적이 된다. 이 연구의 목표는 현재 상태에서 어떤 기술을 시도하는 것이 가장 유망한지에 대한 조건부 확률 분포, 즉 **기술 사전확률(skill prior)**을 학습하여 이 탐색 과정을 지능적으로 안내하는 방법을 개발하는 것이었다.36

SPiRL(Skill-Prior RL)이라 불리는 이 접근법은 두 단계로 구성된다. 첫째, 대규모의 비정형 오프라인 에이전트 경험 데이터셋을 사용하여, (1) 고정된 길이의 행동 시퀀스로 정의되는 기술에 대한 연속적인 임베딩 공간과 (2) 현재 상태를 해당 기술 임베딩 공간의 분포로 매핑하는 기술 사전확률 네트워크를 공동으로 학습한다. 이는 증거 하한(ELBO)을 최대화하도록 학습된 심층 잠재 변수 모델을 통해 달성된다.37 둘째, 새로운 과제를 학습하는 동안, 상위 수준 정책이 기술 임베딩을 출력하는 계층적 정책 구조를 사용한다. 이 정책은 학습된 기술 사전확률에 가깝게 유지되도록 정규화되어, 유망한 행동으로 탐색을 효과적으로 유도한다. 이는 Soft Actor-Critic(SAC)과 같은 최대 엔트로피 강화학습 프레임워크에 통합된다.38 이 과정에서 목적 함수는 표준 엔트로피 항을 학습된 기술 사전확률과의 쿨백-라이블러(KL) 발산 항으로 대체하여 다음과 같이 수정된다:

J(\theta) = E_{\pi}
38

복잡한 미로 탐색 및 로봇 조작 과제에서 SPiRL은 풍부한 데이터셋으로부터 효과적인 기술 이전을 위해 학습된 기술 사전확률이 필수적임을 입증했다. 이 방법론을 통해 에이전트는 기술을 균일하게 탐색하거나 처음부터 학습하는 방법으로는 해결할 수 없었던, 장기적이고 희소한 보상을 갖는 과제를 해결할 수 있었다.37

이 연구는 새로운 과제 학습을 가속화하기 위해 레이블이 없는 대규모 사전 경험 데이터셋을 활용하는 확장 가능하고 효과적인 방법을 제공한다. 이는 평생 학습 에이전트를 구축하고, 데이터 수집 비용이 높고 재사용이 무엇보다 중요한 실용적인 로봇공학 분야에 매우 중요하다. 이 연구는 기술 이전에서 발생하는 ‘선택의 역설’ 문제를 해결하며, 단순히 많은 기술을 보유하는 것뿐만 아니라, 언제 어떤 기술을 사용해야 하는지를 아는 것이 중요함을 보여주었다.

CoRL 2020의 수상작들은 로봇공학 분야가 더 정교하고, 데이터 중심적이며, 사회적으로 인식하는 방향으로 나아가고 있음을 종합적으로 보여준다. 이들 연구 사이에는 명확한 인과 관계가 존재한다. 먼저, 사전 경험으로부터 효과적으로 학습하는 능력(“Accelerating RL with Learned Skill Priors”)은 복잡한 에이전트 행동 개발의 기초가 된다. 이렇게 개발된 행동들은 현실적인 다중 에이전트 시뮬레이터(“SMARTS”)에서 테스트되고 개선될 수 있으며, 이는 궁극적으로 고수준의 전략적 상호작용과 영향력(“Learning Latent Representations” 논문)에 대한 연구를 가능하게 한다. 이 세 편의 수상작은 단절된 성과가 아니라, 단일 에이전트 학습에서 다중 에이전트 시뮬레이션, 그리고 다중 에이전트 전략의 이론적 원칙으로 이어지는 일관된 연구 파이프라인을 형성하며, 로봇 학습 연구 생태계의 성숙을 보여준다.

5. 컴퓨터 비전의 발전: 객체 탐지 모델의 확장성

5.1 “Scaled-YOLOv4“의 핵심 방법론: CSP 네트워크와 모델 스케일링

대만 중앙연구원의 Chien-Yao Wang, 인텔의 Alexey Bochkovskiy 등이 발표한 이 논문의 핵심 목표는 YOLOv4 객체 탐지기를 위한 체계적인 모델 스케일링 방법론을 개발하는 것이었다.13 이를 통해 임베디드 시스템(YOLOv4-tiny)부터 고성능 GPU(YOLOv4-large)에 이르기까지 광범위한 계산 예산에 걸쳐 최적의 속도-정확도 균형을 유지하고자 했다.13

이 연구의 방법론은 깊이, 너비, 해상도만 조정했던 기존의 복합 스케일링(compound scaling) 방식과 달리, 네트워크의 구조 자체를 스케일링에 포함시켰다.13 저자들은 다양한 CNN 구성 요소의 스케일링에 따른 계산 비용(FLOPs)을 분석하고, 최적의 성능을 위해서는 원칙에 입각한 스케일링이 필요하다고 결론지었다. 아키텍처의 기반은 Darknet 백본에 적용된 CSP(Cross Stage Partial) 네트워크다. CSP 구조는 그래디언트 흐름을 최적화하여 파라미터와 연산량을 크게 줄이면서도 정확도를 향상시키는 것으로 나타났다.13

이 연구는 SOTA(state-of-the-art) 성능을 달성했다. YOLOv4-large는 MS COCO 데이터셋에서 **55.5%의 AP(Average Precision)**를 달성하며 Tesla V100 GPU에서 약 16 FPS로 동작했는데, 이는 당시 발표된 연구 중 가장 높은 정확도였다.13 반대편 스펙트럼에서는 YOLOv4-tiny가 RTX 2080Ti에서 443 FPS(TensorRT 사용 시 1774 FPS)라는 인상적인 속도를 기록하여 고속 실시간 응용에 적합함을 입증했다.13 다양한 스케일의 모델(P5, P6, P7)에 대한 결과 또한 일관된 성능 향상을 보여주었다.39

이 연구는 최첨단 객체 탐지기를 다양한 하드웨어 제약 조건에 맞게 조정할 수 있는 실용적이고 강력한 청사진을 컴퓨터 비전 커뮤니티에 제공했다. 지능적인 아키텍처 설계(CSP)와 체계적인 스케일링이 속도와 정확도의 파레토 최적 곡선(Pareto frontier)을 밀어 올리는 데 결정적임을 보여주었다. 이는 엣지 디바이스나 데이터센터 등 배포 환경의 제약이 주요 관심사인 산업 응용 분야에서 매우 중요한 의미를 가진다. 이 연구를 통해 YOLO 계열은 실시간 객체 탐지를 위한 선도적인 선택지로서의 입지를 더욱 공고히 했다.

6. 결론: 2020년 11월 연구의 학술적 및 산업적 의의

2020년 11월은 NLP에서 스케일링 법칙의 유효성 입증(GPT-3), 로봇공학에서 전략적이고 데이터 중심적인 학습의 성숙(CoRL 수상작들), 그리고 컴퓨터 비전에서 효율적인 고성능 모델의 지속적인 개선(Scaled-YOLOv4)으로 특징지어지는 심도 있는 발전의 시기였다. 이 시기에 나타난 거시적 동향은 다음과 같이 요약할 수 있다.

첫째, **데이터와 규모의 불합리한 효과(The Unreasonable Effectiveness of Data and Scale)**가 명백해졌다. GPT-3의 성공은 방대하고 다양한 데이터셋과 거대한 모델 규모의 결합이 범용적인 능력을 창발적으로 이끌어낼 수 있음을 강조했으며, 이는 이후 수년간의 AI 연구 방향을 결정지었다.

둘째, 상호작용 중심 AI(Interaction-Centric AI)의 부상이 두드러졌다. CoRL의 주요 연구들은 단일 에이전트의 과제 수행에서 다중 에이전트 상호작용 동역학으로 연구의 초점이 이동하고 있음을 시사했다. 오프라인 데이터로부터 학습하고, 타인의 의도를 모델링하며, 복잡한 사회적 학습을 위한 플랫폼을 개발하는 것이 핵심 과제로 떠올랐다.

셋째, 효율성의 공학적 추구가 지속되었다. 거대 모델을 향한 흐름과 병행하여, Scaled-YOLOv4와 같은 연구는 AI 기술이 보편화되기 위해서는 성능이 공학적으로 설계되어야 함을 상기시켰다. 원칙에 입각한 스케일링과 아키텍처 최적화는 자원이 제한된 실제 환경에 AI를 배포하는 데 여전히 중요한 과제로 남았다.

2020년 11월에 나타난 이러한 동향들은 이후의 핵심 연구 방향을 직접적으로 예고했다. 즉, 훨씬 더 큰 기반 모델의 개발, 다중 에이전트 시스템에서의 정렬(alignment) 및 안전 문제, 그리고 엣지 컴퓨팅을 위한 모델 압축 및 효율화라는 지속적인 과제들이 바로 그것이다. 이달에 발표된 연구들은 단순한 점진적 개선을 넘어, 차세대 AI 혁신을 위한 개념적, 경험적 토대를 마련했다.

논문 제목핵심 문제핵심 혁신방법론광범위한 영향
Language Models are Few-Shot LearnersNLP 모델의 작업별 데이터 의존성거대 스케일링을 통한 인컨텍스트 학습1750억 파라미터 트랜스포머; Zero/One/Few-shot 프롬프팅LLM 시대 개막; 연구 초점을 기반 모델로 전환
Digital Voicing of Silent Speech발성 불가능한 개인을 위한 음성 생성무성 발화 EMG 신호 기반 합성 모델 학습유성 발화 오디오 타겟을 무성 발화 EMG로 전이 학습보조 통신 기술의 획기적 발전
Learning Latent Representations…비정상적, 적응형 에이전트와의 상호작용상대 에이전트의 전략에 능동적으로 영향잠재 전략 표현 및 잠재 동역학 모델링을 이용한 강화학습전략적 인간-로봇 상호작용의 새로운 패러다임 제시
SMARTS:… RL Training School…자율주행을 위한 현실적인 다중 에이전트 시뮬레이터 부재상호작용 중심 강화학습을 위한 확장 가능한 오픈소스 플랫폼다양한 도로 사용자 행동 모델의 축적자율주행 연구 커뮤니티를 위한 핵심 연구 인프라 제공
Accelerating RL with Learned Skill Priors다수의 기술 이전 시 비효율적인 탐색 문제탐색을 안내하기 위한 상태 조건부 기술 사전확률기술 임베딩과 사전확률의 공동 학습; 최대 엔트로피 강화학습 정규화로봇공학에서 사전 경험의 확장 가능한 재사용 가능
Scaled-YOLOv4: Scaling Cross Stage Partial Network다양한 하드웨어 제약에 객체 탐지기 적응원칙에 입각한 구조-인지적 모델 스케일링CSP 네트워크 설계; 깊이/너비/구조의 체계적 스케일링실시간 객체 탐지 SOTA 달성; 효율적 배포를 위한 청사진 제공

7. 참고 자료

  1. 2020 6th International Conference on Robotics and Artificial Intelligence - icrai, https://www.icrai.org/2020.html
  2. ICSR 2020 | 12th International Conference on Social Robotics - Sites at Penn State, https://sites.psu.edu/icsr2020/
  3. AI And Robotics in Hospital and Healthcare Conference | Asia Research News, https://www.asiaresearchnews.com/content/ai-and-robotics-hospital-and-healthcare-conference
  4. Proceedings of the 2020 Conference on Empirical Methods in …, https://aclanthology.org/2020.emnlp-main.0/
  5. Past Conferences & Workshops - SIGDAT, https://sigdat.org/events
  6. Volume 155: Conference on Robot Learning, 16-18 November 2020, virtual, https://proceedings.mlr.press/v155/
  7. CoRL 2020, https://2020.corl.org/
  8. NeurIPS 2020 · Thirty-Fourth Annual Conference on Neural Information Processing Systems, https://neurips.cc/Conferences/2020
  9. Language Models are Few-Shot Learners - NIPS, https://proceedings.neurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf
  10. Review for NeurIPS paper: Language Models are Few-Shot Learners, https://proceedings.neurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Review.html
  11. Language Models are Few-Shot Learners - NIPS, https://papers.nips.cc/paper/2020/hash/1457c0d6bfcb4967418bfb8ac142f64a-Abstract.html
  12. Language Models are Few-Shot Learners - arXiv, https://arxiv.org/pdf/2005.14165
  13. Scaled-YOLOv4: Scaling Cross Stage Partial Network - OpenReview, https://openreview.net/pdf?id=l-oAXqmMonv
  14. Conference Announcement of 2nd World Congress on Robotics and Automation, November 09-10, 2020 | Amsterdam, Netherlands - Hilaris Publisher, https://www.hilarispublisher.com/open-access/conference-announcement-of-2nd-world-congress-on-robotics-and-automation-november-0910-2020–amsterdam-netherlands.pdf
  15. Robotics Meetings | Robotics 2020 |Robotics Conferences | Automation Conferences | Europe - Robotics-mechatronics 2020, https://robotics-mechatronics.enggconferences.com/2020
  16. Proceedings of Machine Learning Research | The Proceedings of Machine Learning Research (formerly JMLR Workshop and Conference Proceedings) is a series aimed specifically at publishing machine learning research presented at workshops and conferences. Each volume is separately titled and associated with a particular workshop or conference. Volumes are published online on the PMLR web site. The Series Editors, https://proceedings.mlr.press/
  17. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020 - Researchr, https://researchr.org/publication/emnlp-2020-1
  18. NeurIPS 2020 Papers - NeurIPS 2025, https://neurips.cc/virtual/2020/papers.html
  19. NeurIPS Proceedings, https://papers.nips.cc/
  20. Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual - researchr publication, https://researchr.org/publication/nips-2020
  21. [2005.14165] Language Models are Few-Shot Learners - arXiv, https://arxiv.org/abs/2005.14165
  22. Language Models are Few-Shot Learners (GPT-3), https://ysu1989.github.io/courses/au20/cse5539/GPT-3.pdf
  23. EMNLP 2020 Best Paper Award Goes to UC Berkeley Team | Synced, https://syncedreview.com/2020/11/18/emnlp-2020-best-paper-award-goes-to-uc-berkeley-team/
  24. [2011.06619] Learning Latent Representations to Influence Multi-Agent Interaction - arXiv, https://arxiv.org/abs/2011.06619
  25. Learning Latent Representations to Influence Multi-Agent Interaction - collab, https://collab.me.vt.edu/pdfs/xie_corl2020.pdf
  26. Learning and Influencing Latent Strategies, https://sites.google.com/view/latent-strategies/
  27. Learning Latent Representations to Influence Multi-Agent Interaction - CoRL Paper Explorer, https://corlconf.github.io/corl2020/paper_128/
  28. Learning Latent Representations to Influence Multi-Agent Interaction, https://proceedings.mlr.press/v155/xie21a.html
  29. Learning Latent Representations to Influence Multi-Agent … - collab, https://proceedings.mlr.press/v155/xie21a/xie21a.pdf
  30. SMARTS: Scalable Multi-Agent Reinforcement Learning Training …, https://yingwen.io/publication/smarts/
  31. SMARTS: An Open-Source Scalable Multi-Agent RL Training School for Autonomous Driving - CoRL 2020 Papers, https://corlconf.github.io/corl2020/paper_53/
  32. [2010.09776] SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for Autonomous Driving - arXiv, https://arxiv.org/abs/2010.09776
  33. SMARTS: An Open-Source Scalable Multi-Agent RL Training School for Autonomous Driving - Proceedings of Machine Learning Research, https://proceedings.mlr.press/v155/zhou21a.html
  34. smarts - PyPI, https://pypi.org/project/smarts/0.4.15/
  35. Multi-Agent Reinforcement Learning - Weinan Zhang, https://wnzhang.net/teaching/sjtu-rl-2024/slides/12-13-marl.pdf
  36. Accelerating Reinforcement Learning with Learned Skill Priors - ResearchGate, https://www.researchgate.net/publication/344828545_Accelerating_Reinforcement_Learning_with_Learned_Skill_Priors
  37. Accelerating Reinforcement Learning with Learned Skill Priors - GitHub Pages, https://clvrai.github.io/spirl/
  38. Accelerating Reinforcement Learning with Learned Skill Priors, http://www.robot-learning.ml/2020/files/C3.pdf
  39. WongKinYiu/ScaledYOLOv4: Scaled-YOLOv4: Scaling Cross Stage Partial Network - GitHub, https://github.com/WongKinYiu/ScaledYOLOv4